21 research outputs found
Sequential Model Selection Method for Nonparametric Autoregression
In this paper for the first time the nonparametric autoregression estimation
problem for the quadratic risks is considered. To this end we develop a new
adaptive sequential model selection method based on the efficient sequential
kernel estimators proposed by Arkoun and Pergamenshchikov (2016). Moreover, we
develop a new analytical tool for general regression models to obtain the non
asymptotic sharp or- acle inequalities for both usual quadratic and robust
quadratic risks. Then, we show that the constructed sequential model selection
proce- dure is optimal in the sense of oracle inequalities.Comment: 30 page
Nonparametric estimation for an autoregressive model
The paper deals with the nonparametric estimation problem at a given fixed
point for an autoregressive model with unknown distributed noise. Kernel
estimate modifications are proposed. Asymptotic minimax and efficiency
properties for proposed estimators are shown.Comment: 14 page
Sequential robust estimation for nonparametric autoregressive models
International audienceWe construct a robust truncated sequential estimator for the point- wise estimation problem in nonparametric autoregression models with smooth coe cients. For Gaussian models we propose an adaptive pro- cedure based on the constructed sequential estimators. The minimax nonadaptive and adaptive convergence rates are established. It turns out that in this case these rates are the same as for regression models
Nonparametric estimation for an autoregressive models
This thesis is devoted to nonparametric estimation for autoregressive models. We consider the problem of estimating an unknown function at a fixed point using data governed by autoregressive models. To define the risk associated with the use of an estimator and thus measure the quality of it, we use the loss function related to the absolute error. The work of this thesis follows the minimax approach for which the goal is to find a lower bound of the asymptotic minimax risk and then to construct an estimator, said asymptotically efficient, for which the maximum risk reaches asymptotically this bound. For a nonparametric autoregressive model where the autoregressive function is supposed to belong to a weak H\"{o}lder class with known regularity, we show that a kernel estimator is asymptotically efficient. When the regularity of the autoregressive function is unknown, we get the minimax adaptive convergence rate of estimators on a family of H\"{o}lderian classes.\\Cette thèse se consacre à l'estimation non paramétrique pour les modèles autorégressifs. Nous considérons le problème de l'estimation d'une fonction inconnue en un point fixe à l'aide de données régies par des modèles autorégressifs. Pour définir le risque associé à l'emploi d'un estimateur et ainsi mesurer la qualité de celui-ci, nous utilisons la fonction de perte liée à l'erreur absolue. Le travail de cette thèse suit l'approche minimax dont l'objectif est de trouver une borne inférieure asymptotique du risque minimax puis de construire un estimateur, dit asymptotiquement efficace, dont le risque maximal atteint asymptotiquement cette borne. Pour un modèle autorégressif non paramétrique où la fonction autorégressive est supposée appartenir à une classe H\"{o}ldérienne faible de régularité connue, nous montrons qu'un estimateur à noyau est asymptotiquement efficace. Lorsque la régularité de la fonction autorégressive est inconnue, nous obtenons la vitesse de convergence minimax adaptative des estimateurs sur une famille de classes H\"{o}ldériennes.\
Sequential adaptive estimators in nonparametric autoregressive models
We constuct a sequential adaptive procedure for estimating the autoregressive function at a given point in nonparametric autoregression models with Gaussian noise. We make use of the sequential kernel estimators. The optimal adaptive convergence rate is given as well as the upper bound for the minimax risk
Adaptive estimators in nonparametric autoregressive models
International audienceThis paper deals with the estimation of a autoregression function at a given point in nonparametric autoregression models with Gaussian noise. An adaptive kernel estimator which attains the minimax rate is constructed for the minimax risk
Sequential
robust efficient estimation for nonparametric autoregressive model
Estimation non paramétrique pour les modèles autorégressifs
Cette thèse se consacre à l'estimation non paramétrique pour les modèles autorégressifs. Nous considérons le problème de l'estimation d'une fonction inconnue en un point fixe à l'aide de données régies par des modèles autorégressifs. Pour définir le risque associé à l'emploi d'un estimateur et ainsi mesurer la qualité de celui-ci, nous utilisons la fonction de perte liée à l'erreur absolue. Le travail de cette thèse suit l'approche minimax dont l'objectif est de trouver une borne inférieure asymptotique du risque minimax puis de construire un estimateur, dit asymptotiquement efficace, dont le risque maximal atteint asymptotiquement cette borne. Pour un modèle autorégressif non paramétrique où la fonction autorégressive est supposée appartenir à une classe Höldérienne faible de régularité connue, nous montrons qu'un estimateur à noyau est asymptotiquement efficace. Lorsque la régularité de la fonction autorégressive est inconnue, nous obtenons la vitesse de convergence minimax adaptative des estimateurs sur une famille de classes Höldériennes.This thesis is devoted to nonparametric estimation for autoregressive models. We consider the problem of estimating an unknown function at a fixed point using data governed by autoregressive models. To define the risk associated with the use of an estimator and thus measure the quality of it, we use the loss function related to the absolute error. The work of this thesis follows the minimax approach for which the goal is to find a lower bound of the asymptotic minimax risk and then to construct an estimator, said asymptotically efficient, for which the maximum risk reaches asymptotically this bound. For a nonparametric autoregressive model where the autoregressive function is supposed to belong to a weak Hölder class with known regularity, we show that a kernel estimator is asymptotically efficient. When the regularity of the autoregressive function is unknown, we get the minimax adaptive convergence rate of estimators on a family of Hölderian classes.ROUEN-BU Sciences Madrillet (765752101) / SudocSudocFranceF